AI资讯新闻榜单内容搜索-Transforme

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: Transforme
千脑智能觉醒:感知-运动智能模型,亿倍优于视觉Transformer?

千脑智能觉醒:感知-运动智能模型,亿倍优于视觉Transformer?

千脑智能觉醒:感知-运动智能模型,亿倍优于视觉Transformer?

在大语言模型席卷全球的时代,坚持更接近生命本质的智能是少有人走的路。2025年7月初,一篇来自Numenta与Thousand Brains Project的论文,首次通过一个名为“Monty”的AI系统,实验性地验证了神经科学家杰夫·霍金斯(Jeff Hawkins)提出的“千脑智能理论”。

来自主题: AI资讯
5395 点击    2025-07-27 13:46
在WAIC现场,全球首个拥有「原生记忆力」的大模型亮相,但不是Transformer

在WAIC现场,全球首个拥有「原生记忆力」的大模型亮相,但不是Transformer

在WAIC现场,全球首个拥有「原生记忆力」的大模型亮相,但不是Transformer

国内 AI 创企 RockAI 提出的非 Transformer 架构 Yan 2.0 Preview。这个架构极大地降低了模型推理时的计算复杂度,因此可以在算力非常有限的设备上离线运行,比如树莓派。

来自主题: AI资讯
7275 点击    2025-07-26 19:51
斯坦福大模型推理课免费了,谷歌推理团队创始人主讲

斯坦福大模型推理课免费了,谷歌推理团队创始人主讲

斯坦福大模型推理课免费了,谷歌推理团队创始人主讲

如何理解大模型推理能力?现在有来自谷歌DeepMind推理负责人Denny Zhou的分享了。 就是那位和清华姚班马腾宇等人证明了只要思维链足够长,Transformer就能解决任何问题的Google Brain推理团队创建者。 Denny Zhou围绕大模型推理过程和方法,在斯坦福大学CS25上讲了一堂“LLM推理”课。

来自主题: AI资讯
5556 点击    2025-07-25 16:57
「有望成为Transformer杀手」,谷歌DeepMind新架构MoR实现两倍推理速度

「有望成为Transformer杀手」,谷歌DeepMind新架构MoR实现两倍推理速度

「有望成为Transformer杀手」,谷歌DeepMind新架构MoR实现两倍推理速度

大型语言模型已展现出卓越的能力,但其部署仍面临巨大的计算与内存开销所带来的挑战。随着模型参数规模扩大至数千亿级别,训练和推理的成本变得高昂,阻碍了其在许多实际应用中的推广与落地。

来自主题: AI技术研报
5411 点击    2025-07-18 11:58
免剪辑直出!AI生成多角色同框对话视频,动态路由精准绑定音频

免剪辑直出!AI生成多角色同框对话视频,动态路由精准绑定音频

免剪辑直出!AI生成多角色同框对话视频,动态路由精准绑定音频

Bind-Your-Avatar是一个基于扩散Transformer(MM-DiT)的框架,通过细粒度嵌入路由将语音与角色绑定,实现精准的音画同步,并支持动态背景生成。该框架还引入了首个针对多角色对话视频生成的数据集MTCC和基准测试,实验表明其在身份保真和音画同步上优于现有方法。

来自主题: AI技术研报
6067 点击    2025-07-18 11:44
Transformer终结者!谷歌DeepMind全新MoR架构问世,新一代魔王来了

Transformer终结者!谷歌DeepMind全新MoR架构问世,新一代魔王来了

Transformer终结者!谷歌DeepMind全新MoR架构问世,新一代魔王来了

Transformer杀手来了?KAIST、谷歌DeepMind等机构刚刚发布的MoR架构,推理速度翻倍、内存减半,直接重塑了LLM的性能边界,全面碾压了传统的Transformer。网友们直呼炸裂:又一个改变游戏规则的炸弹来了。

来自主题: AI技术研报
7401 点击    2025-07-17 17:00
AI失忆术!只需3个注意力头,就能让大模型忘记「狗会叫」

AI失忆术!只需3个注意力头,就能让大模型忘记「狗会叫」

AI失忆术!只需3个注意力头,就能让大模型忘记「狗会叫」

AI也能选择性失忆?Meta联合NYU发布新作,轻松操控缩放Transformer注意头,让大模型「忘掉狗会叫」。记忆可删、偏见可调、安全可破,掀开大模型「可编辑时代」,安全边界何去何从。

来自主题: AI技术研报
5853 点击    2025-07-14 11:34
EasyCache:无需训练的视频扩散模型推理加速——极简高效的视频生成提速方案

EasyCache:无需训练的视频扩散模型推理加速——极简高效的视频生成提速方案

EasyCache:无需训练的视频扩散模型推理加速——极简高效的视频生成提速方案

近年来,随着扩散模型(Diffusion Models)和扩散 Transformer(DiT)在视频生成领域的广泛应用,AI 合成视频的质量和连贯性有了飞跃式提升。像 OpenAI Sora、HunyuanVideo、Wan2.1 等大模型,已经能够生成结构清晰、细节丰富且高度连贯的长视频内容,为数字内容创作、虚拟世界和多媒体娱乐带来了巨大变革。

来自主题: AI技术研报
5890 点击    2025-07-14 10:42
告别Transformer!北大、北邮、华为开源纯卷积DiC:3x3卷积实现SOTA性能,比DiT快5倍!

告别Transformer!北大、北邮、华为开源纯卷积DiC:3x3卷积实现SOTA性能,比DiT快5倍!

告别Transformer!北大、北邮、华为开源纯卷积DiC:3x3卷积实现SOTA性能,比DiT快5倍!

当整个 AI 视觉生成领域都在 Transformer 架构上「卷生卷死」时,一项来自北大、北邮和华为的最新研究却反其道而行之,重新审视了深度学习中最基础、最经典的模块——3x3 卷积。

来自主题: AI技术研报
6364 点击    2025-07-14 10:25